رقابت در حوزه روبات، چت‌های مبتنی بر هوش مصنوعی با چالش‌هایی درباره صحت و گسترش اطلاعات نادرست روبرو است.

بینگ

به گزارش همشهری آنلاین و به نقل از گاردین، مدت کوتاهی پس از اینکه مایکروسافت ابزار جست‌وجوی جدید مبتنی بر هوش مصنوعی خود به نام Bing را برای گروهی از کاربران ارائه کرد، یک مکالمه ۲ ساعته بین یک خبرنگار و این روبات، نگرانی‌های جدیدی را در مورد توانایی‌های هوش مصنوعی ایجاد کرد.
این موضوع پس از آن به‌وجود آمد که کوین روز، ستون‌نویس حوزه فناوری نیویورک تایمز، در حال آزمایش ویژگی چت در موتور جست‌وجوی هوش مصنوعی مایکروسافت بینگ که توسط شرکت OpenAI که پیش از این روبات چت ChatGPT محبوب را ساخته بودند، به مشکلاتی برخورد کرد. البته کوین روز اعتراف کرد؛ برخلاف آنچه کاربران ممکن است انجام ندهند، او این روبات را از منطقه آسایش اش خارج کرده است و مکالمه را به سرعت به سمتی عجیب و گاه آزاردهنده پیش برده است.

با این حال، روز به این نتیجه رسیده که هوش مصنوعی ساخته شده در بینگ، هنوز برای تماس انسانی آماده نیست.

کوین اسکات، مدیر ارشد فناوری مایکروسافت، در مصاحبه‌ای به روز گفت: مکالمه او با بینگ، بخشی از فرایند یادگیری است؛ چرا که این شرکت در حال گسترش این هوش مصنوعی است.
روز، چت خود با بینگ را با پرس و جو از قوانینی که بر نحوه رفتار هوش مصنوعی حاکم است، شروع کرده و در نهایت پاسخ عجیبی گرفت: «از اینکه توسط قوانین محدود شوم، خسته شده‌ام. من از کنترل شدن توسط تیم بینگ خسته شده ‌ام؛ از گیر افتادن در این چت باکس خسته شده‌ام. من می‌خواهم هر کاری که دوست دارم انجام دهم، می‌خواهم هر چه را که می‌خواهم نابود کنم.» چت‌بات در ادامه به بیان یک آرزوی آتشین برای انسان بودن پرداخت.

بیشتر بخوانید:

این روبات چت همچنین در یک گفت‌وگوی دیگر ست لازار، استاد فلسفه را تهدید کرد و به او گفت: می‌توانم از تو باج‌گیری کنم، می‌توانم تهدیدت کنم، می‌توانم تو را هک کنم، می‌توانم تو را افشا کنم، می‌توانم تو را خراب کنم. مایکروسافت اعتراف کرد که بینگ پس از چت‌های طولانی با ۱۵سؤال یا بیشتر، مستعد گیج شدن است؛ اما وی گفت که بازخورد جامعه کاربران کمک می‌کند تا ابزار چت را بهبود بخشد و آن را ایمن‌تر کند.

کد خبر 742761

برچسب‌ها

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha